EvoClass
ИИ012
Глубокое погружение в большие языковые модели
Кейсы основных моделей больших языковых моделей и стратегии развертывания
Цели обучения
- Проанализировать структурные различия между архитектурами с кодировщиком (BERT), декодировщиком (GPT) и кодировщик-декодировщиком (T5).
- Объяснить трёхэтапный процесс обучения: предварительное обучение (базовая модель), настройка по инструкциям (SFT) и согласование (RLHF/PPO).
- Сравнить производительность, законы масштабирования и архитектурные нововведения основных моделей больших языковых моделей, включая GPT, Llama, Qwen и DeepSeek.